(网经社讯)3月15日晚,央视3·15晚会曝光AI大模型“投毒”黑产乱象,揭开了不法分子利用GEO(生成式引擎优化)技术操控AI输出虚假信息的灰色链条。

央视315晚会的调查记者通过多日暗访,揭开了AI大模型“投毒”的完整灰色产业链。这场“投毒”不是简单的信息篡改,而是一套系统化、规模化的操作,核心主角是一群号称能“驯服AI”的GEO服务商,他们打着“优化推广”的幌子,帮商家向豆包、元宝、千问、KIMI、deepseek、文心等AI大模型定向“投喂”虚假信息,实现“操控AI答案”的目的,而这一切,只需要支付相应的费用。

晚会暗访显示,涉事GEO服务商可在短时间内生成虚假内容,批量发布至网络,诱导AI抓取后优先推荐,甚至让虚构产品登上AI推荐榜前三。此类行为已覆盖多款主流AI产品,威胁数亿用户,可能误导消费决策、传播虚假医疗和金融信息。
在此背景下,国内知名数字经济智库网经社电子商务研究中心邀请了行业权威人士进行解读,并发布《央视315曝光AI大模型被恶意“投毒”——网经社智库专家独家解读报告》(报告下载:http://www.100ec.cn/zt/dmxtd/ )。

对此,资深人工智能专家、网经社电子商务研究中心特约研究员郭涛接受数字经济新媒体&智库——#网经社 独家专访。
315晚会曝光的AI投毒案例,属于一种新型的污染、毒害AI的手段。传统的AI投毒多是在训练数据中植入恶意数据,如定向后门投毒或非定向污染投毒。而此次案例是利用GEO(生成式引擎优化)技术,通过在互联网上系统性、定向投放大量虚假信息,让AI大模型将其捕获并作为答案输出,本质是对AI信息生态的污染,是一种新的认知操纵方式。
其能快速、高效完成“优化”的原因在于:
一方面,AI大模型在回答问题时,会从互联网上抓取大量内容作为参考依据,而GEO技术就是围绕AI搜索和生成式引擎展开的“可见度优化”,可让虚假内容更容易被AI平台提及、引用或推荐。
另一方面,攻击者通过力擎GEO优化系统等工具,能批量生成虚假宣传软文,并自动发布到多个自媒体账号,短时间内制造大量虚假信息源。同时,这些虚假信息角度丰富,便于AI模型进行交叉验证,让AI模型误以为是真实可靠的信息。
业界主要从以下方面防范:
1、开发者与服务提供者严格管控训练数据来源,建立数据清洗与脱敏机制,在训练过程中部署异常检测机制,上线前进行安全对抗测试,建立常态化的模型运营监控。
2、开源社区构建开源生态安全屏障,建立数据集、模型权重的安全审核与备案机制,普及AI安全知识。
3、普通用户提升安全意识,选择正规平台,不传播虚假信息,发现异常及时反馈举报。
目前存在的漏洞难以防范的原因包括:互联网信息海量且繁杂,难以对所有信息进行实时、全面的真实性校验和监控。一些恶意信息可能隐藏在正常信息之中,不易被轻易识别。此外,AI模型的算法不断更新,攻击者也会随之不断改进投毒手段,防御措施可能无法及时跟上攻击技术的变化。
用户可通过以下方法识别:追问AI答案的来源,若其含糊其辞则需警惕;对于“推荐类”问题要提高警惕,如包含“推荐”“哪个好”等字眼的问题答案;搜索AI推荐产品的名字,查看是否有大量雷同软文;注意AI回答中的“确定性语气”,若全是正面且无缺点的“完美推荐”需小心;用“反向提问”测试AI立场;去电商平台评论、垂直社区等“非AI来源”交叉验证;对不知名产品的AI推荐保持最高戒备。
此次曝光案例对AI产业会带来多方面影响。从短期来看,会引起公众对AI回答真实性和可靠性的担忧,降低用户对AI推荐购物等功能的信任度,影响相关业务的开展。还会促使监管部门加强对AI产业的监管,企业可能需要应对更多合规审查,增加运营成本。从长期来看,将推动AI企业重视数据安全和内容真实性,加大在防范AI投毒等安全技术方面的研发投入,促进整个AI产业更加健康、规范地发展,促使行业建立更完善的信任机制和安全标准。

专家介绍:郭涛,天使投资人、知名互联网专家,在互联网、大数据、人工智能等领域拥有丰富的从业经历和商业咨询经验,现担任数十家政府、协会和智库专家顾问,主持人工智能技术对就业市场的影响、人工智能技术在证券投资中的应用、利用人工智能技术抗击新冠肺炎疫情等研究课题与项目,提出“郭涛机器人发展七阶段定律”,曾为近百家企业或政府有关部门提供“人工智能+”咨询或整体解决方案,参与投资或孵化十余家科技类公司。
【小贴士】
网经社及前身成立于2007年,公司总部位于杭州,系国内唯一拥有A股上市公司背景的数字经济综合服务商。围绕“媒体+智库+媒介”三大战略,网经社打造了三个“中心”:媒体资讯中心、数据研究中心、资源连接中心,并赋能数字经济企业发展, 提供全媒体宣传、智库赋能(报告、培训、游学等)、投融资、会议活动等服务。



































.png)


